Световни новини без цензура!
Един технически съвет: Как да забележите генерирани от AI deepfake изображения
Снимка: apnews.com
AP News | 2024-03-21 | 07:32:23

Един технически съвет: Как да забележите генерирани от AI deepfake изображения

ЛОНДОН (AP) — AI фалшифицирането бързо се превръща в един от най-големите проблеми, пред които сме изправени онлайн. Измамните снимки, видеоклипове и аудио се разпространяват в резултат на възхода и злоупотребата с инструменти за генеративен изкуствен интелект.

С дълбоките фалшификати с изкуствен интелект, които се появяват почти всеки ден, изобразявайки всички от Тейлър Суифт до Доналд Тръмп, става все по-трудно да се различи кое е истинско от това, което не е. Генераторите на видео и изображения като DALL-E, Midjourney и Sora на OpenAI улесняват хората без никакви технически умения да създават deepfakes – просто въведете заявка и системата я изплюва.

Тези фалшиви изображения може да изглеждат безобидни . Но те могат да бъдат използвани за извършване на измами и кражба на самоличност или пропаганда и изборна манипулация.

Ето как да избегнете измама от deepfakes:

КАК ДА РАЗПОЗНАЕТЕ DEEPFAKE

В първите дни на deepfakes технологията далеч не беше съвършена и често оставя издайнически признаци на манипулация. Проверяващите факти са посочили изображения с очевидни грешки, като ръце с шест пръста или очила с различно оформени стъкла.

Но тъй като AI се подобри, стана много по-трудно. Някои широко споделяни съвети – като търсенето на неестествени модели на мигане сред хората в deepfake видеоклипове – вече не важат, каза Хенри Айдер, основател на консултантската фирма Latent Space Advisory и водещ експерт в генеративния AI.

Все пак има някои неща, които трябва да се търсят, каза той.

Много AI deepfake снимки, особено на хора, имат електронен блясък, „естетичен вид изглаждащ ефект“, който оставя кожата „да изглежда невероятно полирана“, каза Айдер.

Той обаче предупреди, че творческото подсказване понякога може да елиминира този и много други признаци на манипулация с ИИ.

Проверете последователността на сенките и осветлението. Често обектът е на ясен фокус и изглежда убедително реалистичен, но елементите на фона може да не са толкова реалистични или полирани.

ВИЖТЕ ЛИЦАТА

Смяната на лица е един от най-разпространените методи за дълбоко фалшифициране. Експертите съветват да се вгледате внимателно в краищата на лицето. Съвпада ли тонът на кожата на лицето с останалата част от главата или тялото? Краищата на лицето остри ли са или замъглени?

Ако подозирате, че видеоклипът на говорещ човек е бил подправен, погледнете устата му. Движенията на устните им съвпадат ли перфектно с аудиото?

Айдер предлага да погледнете зъбите. Ясни ли са или са замъглени и по някакъв начин не отговарят на начина, по който изглеждат в реалния живот?

Компанията за киберсигурност Norton казва, че алгоритмите все още може да не са достатъчно сложни, за да генерират отделни зъби, така че липсата на очертания на отделните зъби може да е улика.

МИСЛЕТЕ ЗА ПО-ГОЛЯМАТА КАРТИНА

h2>

Понякога контекстът има значение. Замислете се дали това, което виждате, е правдоподобно.

Уебсайтът за журналистика на Poynter съветва, че ако видите публична личност да прави нещо, което изглежда „преувеличено, нереалистично или не по характер“, това може да е дълбок фалш.

Например, ще папата наистина да носи луксозно пухено яке, както е изобразено на известна фалшива снимка? Ако го направи, няма ли да има допълнителни снимки или видеоклипове, публикувани от легитимни източници?

ИЗПОЛЗВАНЕ НА AI ЗА ОТКРИВАНЕ НА ФАЛШИТИИТЕ

Друг подход е използването на AI за борба с AI.

Microsoft разработи инструмент за удостоверяване, който може да анализира снимки или видеоклипове, за да даде оценка на достоверността дали са били манипулирани. FakeCatcher на производителя на чипове Intel използва алгоритми за анализиране на пикселите на изображението, за да определи дали е истинско или фалшиво.

Има онлайн инструменти, които обещават да надушат фалшификати, ако качите файл или поставите връзка към подозрителния материал. Но някои, като автентификатора на Microsoft, са достъпни само за избрани партньори, а не за обществеността. Това е така, защото изследователите не искат да подсказват лошите актьори и да им дадат по-голямо предимство в дълбоко фалшивата надпревара във въоръжаването.

Отвореният достъп до инструменти за откриване може също така да създаде у хората впечатлението, че са „богоподобни технологии, които могат да изнесат критичното мислене вместо нас“, когато вместо това трябва да сме наясно с техните ограничения, каза Айдер.

ПРЕПЪЧНИЦИТЕ ПРЕД ОТКРИВАНЕТО НА ФАЛШИТИ

Като се има предвид всичко това, изкуственият интелект напредва с главоломна скорост и AI моделите се обучават на интернет данни, за да произвеждат все по-висококачествено съдържание с по-малко недостатъци.

Това означава, че няма гаранция, че този съвет ще продължи да е валиден дори след година.

Експертите казват, че дори може да е опасно да се натовари обикновените хора да станат дигитални Шерлоци, защото това може да им даде фалшиво чувство на увереност, тъй като става все по-трудно, дори за опитни очи, да забелязват дълбоки фалшификати.

___

Суенсън съобщи от Ню Йорк.

___

Асошиейтед прес получава подкрепа от няколко частни фондации, за да подобри своето обяснително отразяване на изборите и демокрацията . Вижте повече за инициативата за демокрация на AP тук. AP е единствено отговорен за цялото съдържание.

Източник: apnews.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!